通向强智能:制造图灵的“童年大脑”
►图源:Pixabay.com
撰文 | 黄铁军
责编 | 邸利会
● ● ●
在我国的脑计划“脑科学与类脑研究”中,类脑计算是重要组成部分。这部分的任务是什么?甚至这个概念是什么意思?在脑计划准备过程中,就有不少争论,之后肯定还会有争论。有争论是好事,有利于把有限投入用到刀刃上。这里我围绕“类”(怎么类?)、“脑”(从脑中得到什么?)和“计算”(怎么算?)三个问题谈一下自己的看法,与业界同道和广大同仁商榷。
人类大脑是宇宙间已知的最复杂的对象,拥有已知的最强的智能。尽管计算机在计算速度等方面已经远远超过人类大脑,在围棋这种高智力项目中人工智能系统也已经把人类远远甩到后面,但这都是“单项比赛”,大脑无疑是唯一的智能最强的全能选手。
正如欧盟“人类大脑计划(Human Brain Project)”建议报告中指出的[1]:“除人脑以外,没有任何一个自然或人工系统能够具有对新环境与新挑战的自适应能力、新信息与新技能的自动获取能力、在复杂环境下进行有效决策并稳定工作直至几十年的能力。没有任何系统能够在多处损伤的情况下保持像人脑一样好的稳健性,在处理同样复杂的任务时,没有任何人工系统能够媲美人脑的低能耗性。”
用人工智能话语来说,至今为止的所有人工智能都是“弱人工智能”,而人类大脑是个通用智能系统,拥有“强人工智能”,即具有自我意识,能够通过学习适应环境和应对未知挑战。因此,借鉴大脑是发展人工智能的一条重要路线。
关键问题是:如何借鉴大脑?或者说怎么去“类”脑?
多数人理解的“类脑”是功能类脑,亦即先理解大脑智能的工作机制或原理,然后按照这个科学原理设计人工智能系统。这种思路的基础是认知科学,大众都很容易理解;这种观点也常常影响人工智能的技术走向,但效果差强人意,很多计算机和人工智能专家甚至因此厌倦、反感认知科学乃至脑科学。为什么会这样?
先“理解(大脑)智能”,再“制造(人工)智能”,听起来很有道理,实际上经不起推敲。特别是要实现强人工智能,这条路线根本不可行。
“理解大脑智能”,即发现“意识的生物学基础” [2],这是人类面临的最重大的科学问题之一,也是包括“中国脑计划”在内的各国脑计划关注的最重大的问题。但是,对这个问题的探索才刚刚开始,多少年能解决?乐观的脑科学家认为需要数百年,悲观的脑科学家认为永远解决不了,因为解决之日就是脑科学终结之时。在1956年人工智能的起点会议中,也探讨了类似问题:“一群神经元如何形成概念?”,实际上这才是人工智能(特别是强人工智能)最核心的问题。当然人工智能发展了六十年,问题还是那个问题,基本没有什么进展。
所以,把“理解智能”作为“制造智能”的前提,即要先破解大脑的奥秘,才能研制强人工智能系统,实际上是把一个更难的(甚至是最难的)问题作为前提条件,犯了本末倒置的错误,思想根源在于迷信“科学是技术的基础和前提”。
事实上,人类历史上重大技术突破往往都在科学原理揭示之前。以飞机为例,莱特兄弟1903年发明飞机,冯·卡门1908年在巴黎亲眼目睹飞行表演后才相信这个事实,并下决心搞清楚飞机为什么会飞;直到1946年,他才和钱学森系统提出空气动力学。这样的例子不胜枚举:从中国四大发明,到日常生活中的乐器甚至浆糊,都是先成功实践,后揭示出科学原理。
任何客观对象都可以分为“结构”和“功能”两个层次,结构是功能的基础,功能是结构的表现:基本单元按照特定结构组成复杂对象,进而在和环境交互过程中表现出特定功能。大脑的“结构”是指各种神经元(神经细胞)通过神经突触连接而成的复杂神经网络,“功能”是指大脑神经网络表现出来的动力学行为,包括思维/意识现象。
脑科学研究的中心任务就是发现特定功能(正常脑功能或异常脑疾病)的结构基础,“脑计划”的实施会起到支撑和加速作用,甚至实现一些局部突破,但是解决“大脑(结构)何以产生智能(功能)?”这个终极性问题,需要数十年乃至数百年的长期努力,在“脑计划”十多年的执行周期内,没人敢预测能走多远。
因此,类脑计算如果想在“脑计划”执行周期内有所突破,不能走“功能类脑”的技术路线,坐等认知科学家“猜谜”,而要走“结构仿脑”的路线。
所谓“结构仿脑”,就是要与神经科学家合作,以生物大脑介观图谱为蓝图,采用微纳器件模拟生物神经元和神经突触的信息处理功能,仿照大脑皮层神经网络和生物感知器官构造出仿生神经网络,在仿真精度达到一定程度后,加以外界刺激训练,使之产生与生物大脑类似的信息处理功能和系统行为[3]。
“结构仿脑”的基础是绘制大脑图谱,这是“脑计划”未来十到十五年持续推进、结果可期的中心任务,既是脑科学的基础,也是类脑计算的基础。“结构仿脑”的目标成果是类脑(计算)机,更形象的称呼是“电子大脑”,它是有望实现更强人工智能乃至强人工智能的新一代计算平台。
“结构仿脑”主要涉及大脑结构解析和仿真两大问题,本质上都是工程技术问题,经过持续努力极有可能在十年时间尺度内持续进展并取得重大突破,本文后面的主要内容就是介绍这条路线的可行性及最新进展。乐观估计,结构仿脑很可能在十到二十年成功,保守估计也不应该超过三十年。具有更强智能的“电子大脑”还是生物大脑和生物智能的对照物,更易操作调控,能够加快脑科学和数理科学家破解大脑奥秘的历史进程。因此,类脑计算以及以它为基础的强人工智能,并非理解大脑奥秘的结果,而是可率先实现的基础和前提,
如上所述,类脑计算的“脑”不是“功能脑”,而是“结构脑”,即神经元、神经突触构成的大规模生物神经网络。
从结构层次认识大脑本来就是现代神经科学的起点。1906年,诺贝尔生理学或医学奖授予“在神经系统结构研究上的工作”的卡米洛·高尔基(Camilo Golgi,1843-1926)和圣地亚哥·拉蒙·卡哈尔(Santiago Ramony Cajal,1852-1934),他们提出神经元染色法并绘制了大量精美的生物神经网络图谱,沿用至今。
神经元(即神经细胞)是大脑神经网络的基本单元,对于它的功能,1943年麦卡洛克和皮茨想象成“全或无”的逻辑开关。但是,生物神经元真是这样吗?这个问题1939年就有人思考,刚刚博士后出站回到剑桥大学的阿兰·霍奇金(Alan Hodgkin, 1914-1998)和他的博士后安德鲁·赫胥黎(Andrew Huxley,1917-2012)选中了大西洋枪乌贼的巨神经元,自制工具,很快就测到这个神经元的静息电位和动作电位,实验结果发表在《Nature》上。恰在此时,二战爆发,两人投笔从戎。直到1946年,霍奇金和赫胥黎重新拿起膜片钳,又花了六年时间,精细测量神经元传递电信号(神经脉冲,更准确地称为动作电位)的动态过程,并给出了精确描述这一动力学过程的微分方程,称为霍奇金-赫胥黎方程(Hodgkin-Huxley方程,简称HH方程)[4],1963年获得诺贝尔奖。可惜的是,人工智能领域很多神经网络专家竟然不知道这个方程的存在,包括深度学习在内的人工神经网络模型还在沿用1943年的简化模型!
接下来是神经突触解析,这一历史重任转到中国人肩上。中国现代神经科学奠基人冯德培(1907-1995)和张香桐(1907-2007)对神经可塑性研究做出了杰出贡献。
在霍奇金-赫胥黎方程发表的1952年,张香桐就发现树突具有电兴奋性,树突上的突触可能对神经元的兴奋精细调节起重要作用。1992年国际神经网络学会授予张香桐终身成就奖,评价他“……为树突电流在神经整合中起重要作用这一概念提供了直接证据……这一卓越成就,为我们将来发展使用微分方程和连续时间变数的神经网络、而不再使用数字脉冲逻辑的电子计算机奠定了基础” [5]。
1998年,毕国强和蒲慕明提出了神经突触脉冲时间依赖的可塑性机制STDP(Spike-Timing Dependent Plasticity)[6-7]:反复出现的突触前脉冲有助于紧随其后产生的突触后动作电位并将导致长期增强,相反的时间关系将导致长期抑制。2000年,宋森等给出了STDP的数学模型[8-9]。2016年,蒲慕明院士因为“……神经细胞如何依据对现实世界的体验,建立新连接或者改变原有连接强度”获得美国神经学学会格鲁伯神经科学奖。
神经突触虽然微小,但对越来越精密的探测仪器来说,并无突破不了的障碍。人类大脑神经突触数量达到百万亿,神经元数量达到千亿,虽然庞大繁杂,但仍然是一个有限复杂度的物理结构。
2008年,美国工程院把“大脑反向工程”列为本世纪14个重大工程问题之一,注意,这是解剖学意义上的“结构反向工程”,不是功能模拟。2013年以来,欧洲“人类大脑计划”以及美、日、韩“脑计划”都把大脑结构图谱绘制作为重要内容。2014年,华中科技大学《单细胞分辨的全脑显微光学切片断层成像》获得国家自然科学二等奖,并被欧洲人类大脑计划用作鼠脑仿真的基础数据。2016年3月,美国情报高级研究计划署(IARPA)启动MICrONS(大脑皮层网络机器智能)计划,对一立方毫米的大脑皮层进行反向工程,并运用这些发现改善机器学习和人工智能算法。2016年4月,全球脑计划研讨会(the Global Brain Workshop 2016)提出需要应对三大挑战,第一个挑战就是绘制大脑结构图谱[10]:“在十年内,我们希望能够完成包括但不限于以下动物大脑的解析:果蝇、斑马鱼、鼠、狨猴,并将开发出大型脑图谱绘制分析工具。”仿佛是为了证明这个预测,2016年9月8日,日本东海大学宣布绘制出包括十多万神经元的果蝇大脑神经网络三维模型[11]。
2017年5月,北京大学在国家自然科学基金委重大科研仪器研制专项《超高时空分辨微型化双光子在体显微成像系统》支持下,成功研制出新一代高速高分辨微型化双光子荧光显微镜,获取了小鼠在自由行为过程中大脑神经元和神经突触活动清晰、稳定的图像。我国“十三五”国家重大科技基础设施“多模态跨尺度生物医学成像”已经启动建设,融合光、声、电、磁、核素、电子等成像范式,提供从埃到米、从微秒到小时跨越十个空间与时间尺度的解析能力,具备了多种模式动物大脑的高精度动态解析能力。
即将启动的国家脑计划把大脑图谱解析作为重要任务,明确了对模式动物大脑结构解析规划,提出了通过国际合作方式绘制大脑介观图谱,这是脑科学研究的基础,也是类脑计算的基础,应该集中资源优先大力支持。
神经科学为基,认知科学为用。通过开放精细神经图谱,鼓励各种社会资源以此为基础开展认知科学和脑疾病相关研究,是有意义的,但是不能喧宾夺主,本末倒置,重蹈欧洲人类大脑计划被认知科学搅局的覆辙。需要坚持“有所为,有所不为”,把有限投入用到大脑精细神经图谱解析这项基础的、共性的任务上,这个率先突破了,“一体两翼”才可能起飞,否则,胡子眉毛一把抓,十五年后难免一地鸡毛。
计算机科学技术和产业的高速发展,让“计算”这个词的含义不断膨胀,似乎计算无所不能。但是,计算机的能与不能,理论边界早在1936年就由提出者阿兰•麦席森·图灵界定清楚了[12]。
众所周知,图灵这篇论文的目的是证明“不可计算数”的存在,大家熟知的图灵机模型,只是副产品。论文结论是任何可物理实现的图灵机(也就是所有计算机)能够计算的数都只是一个很小的子集,把智能框定在这样一个有限范围显然是不足取的,包括图灵在内的计算机和人工智能先驱也并不认为经典计算机就是实现人工智能的可行平台,更谈不上是实现强人工智能的的平台。
1943年,也就是人类第一台计算机发明三年之前,图灵就提出了“电子大脑”的想法[13]。1950年,图灵发表题为《计算机与智能》的文章[14],明确表示“真正的智能机器必须具有学习能力,制造这种机器的方法是:先制造一个模拟童年大脑的机器,再教育训练。”
神经网络是发展人工智能的重要路线,也是目前以深度学习为代表的新一轮人工智能热潮的模型基础。但是,迄今为止的人工神经网络都过度简化,与生物大脑神经网络对比,至少在三个层次还远远不能相提并论:第一,生物神经元的数学模型要比人工神经网络的神经元数学模型复杂得多;第二,人类大脑是由数百种不同类型的上千亿的神经细胞所构成的极为复杂的生物组织,每个神经元通过数千甚至上万个神经突触和其他神经元相连接,即使采用简化的神经元模型,采用目前最强大的超级计算机模拟人脑,也需要一百台;第三,生物神经网络采用动作电位表达和传递信息,按照非线性动力学机制处理信息,目前的深度学习等人工网络还不具备这些特征。
人类智能和意识是生物神经系统这个大规模非线性动力学系统涌现出的功能。要“制造”更强的智能甚至类人智能,必需在结构和基元上更逼近生物神经网络,也就是要制造出图灵所讲的“童年大脑”。这种超越经典计算机的机器叫做类脑(计算)机或神经形态机,相关研究从上世纪八十年代开始就一直在持续进行中。
类脑机或神经形态机是仿照生物神经网络、采用神经形态器件构造的、以多尺度非线性时空信息处理为中心的智能机器。
具体来说,是从结构层次仿真入手,采用微纳光电器件模拟生物神经元和神经突触的信息处理功能,仿照大脑皮层神经网络和生物感知器官构造出仿生神经网络,在仿真精度达到一定程度后,加以外界刺激训练,使之产生与生物大脑类似的信息处理功能和系统行为。
类脑机背后的基本理念是绕过“理解智能”这个更为困难的科学难题,先通过结构仿真等工程技术手段制造出神经形态机,再通过训练间接达到智能模拟的目的。这条技术路线可总结为[16,3]:结构层次模仿脑,器件层次逼近脑,智能层次超越脑。
仿真大脑的努力可以追溯到上世纪80年代,代表性工作包括美国生物学家、诺贝尔医学或生理学奖获得者杰拉尔德·艾德曼(Gerald Maurice Edelman,1929-2014)的仿脑机(Brain-Based-Devices,BBD)[16-17] 和现代微电子学和大规模集成电路先驱、加州理工学院教授卡弗·米德(Carver Andress Mead,1934—)开创的神经形态工程(Neuromorphic Engineering)[18-19]。三十年来,以硬件方式逼近生物神经网络的神经形态计算(Neuromorphic Computing)持续发展,全球范围内发表的论文已经两千多篇[20]。
近年来,具有类脑机特征的神经形态计算系统纷纷登场。目前全球范围内运行的代表性的大型神经形态计算系统有四套:斯坦福大学的Neurogrid[21],德国海德堡大学的BrainScaleS系统[22],英国曼彻斯特大学的SpiNNaker系统[23],美国IBM公司基于TrueNorth芯片构造的系统[24]。与经典计算机类比,这些系统相当于1946年首台计算机ENIAC,但是发展迅速,例如,BrainScaleS在欧洲人类大脑计划支持下,预计在2022年,也就是计划结束前一年,实现在神经信息处理能力上超越人类大脑。
我国在类脑机研制方面还没有重大规划和行动,但相关基础研究工作也已经有上十年的历史。2015年9月,北京启动“脑科学研究”重大专项,“脑认知与类脑计算”作为两大任务之一,从理论基础研究、类脑计算机研制和类脑智能应用三个层次布局了九个方面的任务,包括:大脑结构解析平台、认知功能模拟平台、神经形态器件、类脑处理器、机器学习芯片、类脑计算机、视听感知、自主学习和自然会话,调动了北京地区脑科学研究力量协同攻关重大共性技术,取得了一批具有国际影响力的成果。北京专项启动一个多月之后,美国能源部(美国超级计算机研制的牵头部门)10月29-30日召集全国专家,围绕“神经形态计算:从材料到架构”进行研讨[25],会议内容与北京“脑科学与类脑计算”布局高度类似。
神经形态器件是类脑机的“晶体管”,最近几年发展很快。2008年惠普模拟神经突触的忆阻器件;2016年8月IBM用相变材料仿真神经元;9月,美国马萨诸塞大学阿默斯特分校采用扩散型忆阻器研制成功逼近神经突触的器件;10月,普林斯顿大学宣布研制成功比光神经元,标志着神经形态器件的竞争已经进入白热化阶段。
我国在神经形态器件方面已经有十多年的研究历史,北京大学、清华大学、南京大学、中科院上海微系统所、华中科技大学和国防科技大学等单位的成果表明中国很有可能对这一领域产生巨大影响。尽管这些器件应用于神经计算系统还有很长的路要走,它们将从根本上塑造神经计算机的未来,就像晶体管和集成电路对经典计算机的贡献一样。
我国在经典计算机时代错失历史机遇,经过不懈努力,高性能计算机已经领冠全球,但计算机产业“空心化”局面很难挽回。神经形态计算和类脑机革命正在展开,我国应尽快做出战略部署,集中优势研究力量,突破基础器件(神经形态器件)、核心芯片(神经形态处理器)和基础软件及整机,实现类脑计算机产业内生式发展,为新一代人工智能乃至强人工智能奠定机器基础。
在1950年那篇题为《计算机与智能》的文章[14]中,阿兰·图灵并未止步于的智能机器的思考,而是提出“吾等目力短亦浅,能知百事待践行”的实际路线。也正是沿着这样的路线,经典计算机从计算机器成长为支撑包括人工智能在内的各种算法、模型和应用的通用平台,计算已经成为和理论、实验并列的科学研究第三范式。
脑与意识作为自然科学的“最后疆域”,离不开经典计算机的支持,更需要从大脑神经系统精细结构出发,研制能够重现大脑功能的“电脑”(类脑机)。
总结一下,类脑计算需要遵循以下原则:
(1) 先结构,后功能:应该从对生物神经系统的结构仿真出发,而不是从生物智能的功能模拟出发,即科学基础主要是神经科学,而不是认知科学;
(2) 器件层次逼近脑:必须研制功能和尺度都逼近乃至超越生物神经元和生物突触的神经形态器件,以制造大规模神经网络硬件系统;
(3) 结构层次模仿脑:需要借鉴生物神经网络的结构设计新的体系结构,在实现类似生物智能的后再进行简化、优化和扩大规模;
(4) 功能层次超越脑:使用互联网大数据、物联网传感器、虚拟环境等多种刺激训练硬件神经网络,“培育”智能;
(5) 先理解机器智能,再理解生物智能:对机器智能产生的动力学过程进行建模和分析,理解机器智能,再将这种理解外推到生物系统,补充生物实验,理解生物智能乃至人类意识。
沿着上述原则研制的“电脑”,并不需要等待脑科学认知原理的突破,只要获得生物神经网络的介观图谱和神经元及神经突触功能特性,就能制造出生物大脑工作模式和性能相当的智能机器,甚至涌现出自我意识,这将是揭开大脑终极奥秘的重要一步。
我们的大脑是一个足够复杂的结构,所以才能映射和表达外部世界存在的复杂结构;我们的大脑还是一个动态复杂系统,所以才能感知和处理复杂的动态世界;我们的大脑这个动态系统对形式的加工过程中所进行的变换和抽象,则是知识的源头。当然,我们的大脑还是一个复杂度有限的结构,复制这样的结构不过是制造更复杂的结构的起点。一旦“电脑”变为现实,超越就同时发生了:
(1) 速度:神经形态器件可以快多个数量级
(2) 规模:没有颅骨的限制
(3) 寿命:电子系统即使有损耗,也可以复制迁移到新系统而永生
(4) 精度:生物大脑的很多缺陷和“短板”可以避免和弥补
(5) 协作:电脑之间“精诚合作”、“万众一心”
(6) 进化:电脑自己设计自己
(7) ……
参考文献:
1. H Markram, K Meier et al. The Human Brain Project, A Report to the European Commission. The HBP-PS Consortium, April 2012.
2. Greg Miller. What Is the Biological Basis of Consciousness? Science. Vol.309, Issue 5731, pp.79. July 2005
3. Tie-Jun Huang. Imitating the Brain with Neurocomputer A “New” Way Towards Artificial General Intelligence[J]. International Journal of Automation and Computing, vol.14, no.5, pp.520-531, 2017.
4. Hodgkin A L, Huxley A. A quantitative description of membrane current and its application to conduction and excitation in nerve. The Journal of physiology, 1952, 117(4):500-544.
5. 饶毅,鲁白,梅林. 神经科学:脑研究的综合学科. 《生理科学进展》1998年04期
6. Guoqiang Bi, Muming Poo. Synaptic modifications in cultured hippocampal neurons: Dependence on spike timing, synaptic strength, and postsynaptic cell type. J Neurosci 18: 10464-10472,1998.
7. Guoqiang Bi, Muming Poo.Distributed synaptic modification in neural networks induced by patterned stimulation. Nature, 401(6755): 792-796, 1999.
8. Sen Song, Kenneth D. Miller, L. F. Abbott. Competitive Hebbian learning through spike-timing-dependent synaptic plasticity. Nature Neuroscience 3:919-926, 2000.
9. Sen Song, L. F. Abbott. Column and map development and cortical remapping through spike-timing dependent plasticity. Neuron 32:339-50, 2001
10. J T Vogelstein, K Amunts et al. Grand Challenges for Global Brain Sciences. https://arxiv.org/ftp/arxiv/papers/1608/1608.06548.pdf, April 2016
11. R. Mizutani, R. Saiga, A. Takeuchi, K. Uesugi, Y. Suzuki. Three-dimensional network of Drosophila brain hemisphere. https://arxiv.org/ftp/arxiv/papers/1609/1609.02261.pdf. Sept 8, 2016
12. Alan M. Turing. On Computable Numbers, with an Application to the Entscheidungsproblem. Proceedings of the London Mathematical Society. 2.42. pp. 230–65, 1937.[Delivered to the Society November 1936].
13. Andrew Hodges. Alan Turing: The Enigma. London: Vintage, 1992, p251. (转引自《信息简史》202页)
14. Alan M. Turing. Computing Machinery and Intelligence. Mind LIX (236): 433–460, 1950.
15. T. Huang. Brain-Like Computing. Computing Now, vol.9, no.5, May. 2016, IEEE Computer Society [online]
16. G N Reeke, O Sporns, Gerald M. Edelman. Synthetic neural modeling: the `Darwin' series of recognition automata. Proceedings of the IEEE, vol. 78, no. 9, pp. 1498-1530, Sep 1990. doi: 10.1109/5.58327
17. Gerald M. Edelman. Learning in and from brain-based device [J]. Science, 2007, 318: 1103-1105.
18. Carver Mead. Neuromorphic electronic systems. Proceedings of the IEEE, vol. 78, no. 10, pp. 1629-1636, Oct 1990
19. C Mead, M Ismail(ed). Analog VLSI Implementation of Neural Systems. (Dordrecht: Kluwer) 1989
20. Catherine D. Schuman, Thomas E. Potok, Robert M. Patton, J. Douglas Birdwell, Mark E. Dean, Garrett S. Rose and James S. Plank. A Survey of Neuromorphic Computing and Neural Networks in Hardware. May 2017. https://arxiv.org/pdf/1705.06963.pdf
21. B V Benjamin,…,K Boahen, Neurogrid: A Mixed-Analog-Digital Multichip System for Large-Scale Neural Simulations,Proceedings of the IEEE, vol 102, no 5, pp 699-716, 2014.
22. K. Meier. A mixed-signal universal neuromorphic computing system. 2015 IEEE International Electron Devices Meeting (IEDM), pp. 4.6.1-4.6.4, 2015.
23. S B Furber et al. The SpiNNaker project. Proc. IEEE 102 652–65, 2014
24. P A Merolla et al. A million spiking-neuron integrated circuit with a scalable communication network and interface. Science 345 668–73, 2014.
25.https://science.energy.gov/~/media/bes/pdf/reports/.../NCFMtSA_rpt.pdf
制版编辑:黄玉莹 |
本页刊发内容未经书面许可禁止转载及使用
公众号、报刊等转载请联系授权
copyright@zhishifenzi.com
商务合作请联系
business@zhishifenzi.com
▼点击查看相关文章
▼▼▼点击“阅读原文”,直达知识分子书店!